#artifical analysis
2025/11/10
•
Kimi K2 thinking的token消耗和成本
artifical analysis針對k2k的推理做了詳細的分析,發現k2k的token消耗量很大,意味著推理的簡潔度需要提高。這種情形和豆包、qwen的推理模型的現像有點相似。在推理速度和囉嗦程度之間做的平衡,這也是ttc和sft效果的直觀體現同時k2k提供了普通和turbo模式,兩種模式的token per second有巨大的差異,進爾造成了token數量和總成本的巨大差異(大道至簡不簡單)